深度神经网络(DNN)众所周知,很容易受到对抗例子的影响(AES)。此外,AE具有对抗性可传递性,这意味着为源模型生成的AE可以以非平凡的概率欺骗另一个黑框模型(目标模型)。在本文中,我们首次研究了包括Convmixer在内的模型之间的对抗性转移性的属性。为了客观地验证可转让性的属性,使用称为AutoAttack的基准攻击方法评估模型的鲁棒性。在图像分类实验中,Convmixer被确认对对抗性转移性较弱。
translated by 谷歌翻译
在本文中,我们提出了一种攻击方法,以阻止炒面的面部图像,尤其是加密 - 加压(ETC)应用图像,通过首次利用现有强大的stylegan编码器和解码器。我们专注于恢复可以从加密图像中揭示可识别信息的样式,而不是从加密图像中重建相同的图像。所提出的方法通过使用特定的训练策略使用普通和加密的图像对来训练编码器。尽管最新的攻击方法无法从ETC图像中恢复任何感知信息,但该建议的方法披露了个人身份信息,例如头发颜色,肤色,眼镜,性别等。结果表明,与普通图像相比,重建的图像具有一些感知的相似性。
translated by 谷歌翻译
深度神经网络(DNN)众所周知,很容易受到对抗例子的影响(AES)。此外,AE具有对抗性转移性,即为源模型傻瓜(目标)模型生成的AE。在本文中,我们首次研究了为对抗性强大防御的模型的可传递性。为了客观地验证可转让性的属性,使用称为AutoAttack的基准攻击方法评估模型的鲁棒性。在图像分类实验中,使用加密模型的使用不仅是对AE的鲁棒性,而且还可以减少AES在模型的可传递性方面的影响。
translated by 谷歌翻译
提出了一种使用秘密钥匙访问控制的新方法,以保护模型免受本文未经授权的访问。我们专注于具有视觉变压器(VIT)的语义分割模型,称为分割变压器(SETR)。大多数现有的访问控制方法都集中在图像分类任务上,或者仅限于CNN。通过使用VIT拥有的贴片嵌入结构,可以用秘密键有效地对经过训练的模型和测试图像进行加密,然后在加密的域中执行语义分割任务。在一个实验中,该方法被确认提供了与使用普通图像无需任何加密的授权用户具有正确键的准确性,并为未经授权的用户提供了极度退化的准确性。
translated by 谷歌翻译
众所周知,SNS提供商可以进行上传视频/图像的重新压缩和调整,但是大多数用于检测篡改视频/图像的常规方法对此类操作不够强大。此外,视频是在时间上操作的,例如插入新框架和框架的排列,通过使用常规方法很难检测到其中的操作。因此,在本文中,我们提出了一种新颖的方法,该方法具有强大的散列算法,即使在对视频进行调整和压缩时,也可以检测到时间操作的视频。
translated by 谷歌翻译
在本文中,我们在使用Convmixer结构下使用加密图像提出了一种隐私图像分类方法。宽阔的炒图像已经用于保护隐私的图像分类任务,这些图像对各种攻击都足够强大,但是需要组合使用分类网络和适应网络来减少图像加密的影响。但是,由于适应网络具有许多参数,因此无法将大尺寸的图像应用于传统方法。因此,我们提出了一种新颖的方法,该方法不仅使我们不仅可以在没有适应网络的情况下应用块炒图像进行训练和测试,而且还提供了比常规方法更高的分类精度。
translated by 谷歌翻译
在本文中,我们提出了一种新型的模板匹配方法,其白色平衡调整称为n-White平衡,该方法是针对多胸罩场景提出的。为了减少照明效应的影响,将n-白平衡应用于多弹性颜色恒定的图像,然后通过使用调整后的图像进行模板匹配方法。在实验中,在各种照明条件下,提出的方法的有效性在对象检测任务中有效。
translated by 谷歌翻译
在本文中,我们提出了一种使用秘密钥匙的Convmixer模型的加密方法。已经研究了DNN模型的加密方法,以实现对抗性防御,模型保护和隐私图像分类。但是,与普通模型相比,常规加密方法的使用降低了模型的性能。因此,我们提出了一种加密交流模型的新方法。该方法是基于Convmixer拥有的嵌入体系结构进行的,并且使用该方法加密的模型才能具有与使用秘密键加密的测试图像时使用普通图像训练的模型相同的性能。此外,提出的方法不需要任何特殊准备的数据进行模型培训或网络修改。在实验中,在CIFAR10数据集中的图像分类任务中,根据分类精度和模型保护评估了所提出方法的有效性。
translated by 谷歌翻译
在本文中,我们提出了转换图像和视觉变压器(VIT)模型的组合使用,该模型用秘密键转换。我们首次展示了经过普通图像训练的模型可以直接转换为根据VIT体系结构训练的模型,并且使用测试图像时,转换模型的性能与经过纯图像训练的模型相同用钥匙加密。此外,提出的方案不需要任何特殊准备的数据进行培训模型或网络修改,因此它还使我们可以轻松更新秘密密钥。在实验中,在CIFAR-10数据集中的图像分类任务中,根据性能降解和模型保护性能评估了提出方案的有效性。
translated by 谷歌翻译
在本文中,我们首次提出了一种具有秘密键的访问控制方法,以便没有秘密密钥的未经授权的用户无法从受过训练的模型的性能中受益。该方法使我们不仅可以为授权的用户提供高分段性能,还可以降低未经授权的用户的性能。我们首先指出,对于语义分割的应用,使用加密图像进行分类任务的常规访问控制方法由于性能退化而不直接适用。因此,在本文中,选定的特征图用训练和测试模型的秘密密钥加密,而不是输入图像。在一个实验中,受保护的模型允许授权用户获得与非保护模型的性能几乎相同的性能,但也具有鲁棒性,而无需键入未经授权的访问。
translated by 谷歌翻译